查看原文
其他

多措并举推进算法治理 创新推动算法技术应用

紫东君 人民中科研究院 2024-01-09

前情回顾#算法治理#


建立算法治理的新路径新举措,更好地保障可信的、负责任的、以人为本的算法技术创新与应用。


随着数字化的深入发展,智能算法已经成为基础性、通用性的技术,持续在经济社会的各个领域应用发展。


从互联网领域中的推荐算法、AI生成内容(AIGC),到产业领域中的自动驾驶汽车、医疗AI、工业质检AI,再到社会公共服务中的便民应用,可见算法为数字经济和社会的高质量发展“提质增效”。


与此同时,算法的广泛应用也带来一些负面问题,诸如信息茧房、隐私侵犯、大数据杀熟、算法滥用等。为此,建立算法治理的新路径新举措,更好地保障可信的、负责任的、以人为本的算法技术创新与应用成为当下的重要议题。



01

算法的风险与困境


算法广泛应用于国民经济的各个领域,具有范围宽广、形态繁多的特点,由于其应用的领域和环节、影响的对象不同,算法造成的负面影响和风险主要包括以下几个方面:


01

限制市场竞争


数字经济在组织形态上的显著特征是超级平台的兴起,形成数字经济与传统产业在产业组织结构上的巨大差异。


一是平台成为典型的经营形态。数字经济平台属于双边平台,一边连接最终产品或服务的用户,另一边连接这些产品或服务的供应商,平台提供供应商与最终用户之间的交易中介服务以及实现交易所需的数字化工具、数字基础设施和交易规则。


二是数字经济的市场集中度更高。由于网络效应的存在,数字经济的细分产业领域在进入成熟阶段后都呈现赢家通吃的格局,一两家头部企业占有大多数市场份额,相比之下,传统产业的市场集中度一般要低得多。


三是超级平台具有强大的市场势力。平台企业可以利用其市场优势地位和对数据的掌控对供应商和最终用户制定掠夺性价格;还可以利用数据优势、用户优势,对具有潜力的新技术和新商业模式进行模仿,将初创企业排挤出市场,或者直接将初创企业收购,将自己在原有市场的优势地位拓展到新兴市场。



02

侵害用户隐私


用户的信息既可以直接用于数字经济企业自身的商品导流或促销,也可以出售给其他企业。为了占有尽可能多的信息,许多应用程序或APP未经用户同意就直接获取程序运行非必须的权限,如定位功能、通讯录访问权限等,甚至用户不开放权限就无法使用该程序。


为了获得互联网带来的便利性,消费者不得不选择让渡个人信息。但是一方面,一些信息的获取没有得到消费者的许可,属于非法采集;另一方面,个人虽然是数据的生产者、所有者,但是这些数据一旦被互联网公司获取后就脱离其最初所有者的控制,个人不但无法知晓自己的信息被用于何处,而且在后续的使用中可能会威胁个人的隐私,甚至可能对个人的财产和人身安全造成损害。



03

造成算法歧视


算法歧视有多种成因,包括用于训练算法的历史数据受到污染或存有偏见,算法中使用性别、种族等具有明显歧视性的数据,利用能够显示身份的代理变量(如用户使用的手机品牌和价格)用于算法模型训练,个人偏见和歧视性观点被植入算法等。算法歧视的一个典型是“大数据杀熟”。


大数据杀熟是互联网平台利用算法对用户的历史消费数据进行分析,相同的商品或服务对那些支付能力强、对价格不敏感的老顾客收取更高的价格。


在传统的商品市场上,商品的功能、质量高度标准化,价格不同很容易被发现,而互联网服务通常是基于特定时间、特定场景的,时间、场景不同,市场上的供需关系就不同,并由此形成不同的市场价格,这就造成“大数据杀熟”更难被察觉、也更难被举证。



04

形成信息茧房


在信息呈指数型爆炸增长的自媒体时代,平台的推荐算法虽然可以为消费者节约大量的信息搜索时间,但也严重限制了消费者所能接收到的信息的多样性,推荐算法会严格按照用户自己的偏好设定和历史数据定制化地推送信息,而用户在这类信息上的驻留会进一步强化算法对此类信息推荐。


人们被算法圈定在“信息茧房”里,被动地接受算法让人们看到的信息。同时,各类数字平台的社交化导向会推动具有相同爱好和观点的人在网络空间上聚集,进一步强化他们固有的爱好和观点。算法推荐会让用户只看到自己愿意看到的观点,造成信息封闭、在认知上成为“井底之蛙”。


在社会层面,信息茧房还会形成用户观点的极化,造成不同群体之间的交流障碍,甚至由于思想的偏狭引致群体间的误会,催生极端行为,引发社会矛盾和冲突。



05

损害弱势群体


数字经济的发展和算法的广泛使用不会自动地平等惠及每一个人,弱势群体反而会成为算法的受损者。在日常生活中,由于数字技术对传统生活方式的替代可能增加对数字技术不熟悉人群的不便。


例如,网约车普及后,不会使用手机的老年人出现“打车难”。在外卖行业,外卖骑手在算法的驱使下为了准时完成订单、获得准时奖励或避免不准时的罚款,不仅会增加劳动强度,而且可能会采取超速、逆行、闯红灯等高风险行为,被迫用事故概率来换取工作效率。



02

算法治理的可行之策


面对算法的风险与困境,我国已在算法治理上进行了长期探索,从过去积极探索算法治理的原则,到现在逐步开展算法治理的落地实践并已取得了阶段性成效。


我国算法治理正呈现制度化、法律化的趋势。例如,我国已经组建国家科技伦理委员会,负责指导和统筹协调推进全国科技伦理治理体系建设工作。


《数据安全法》《互联网信息服务算法推荐管理规定》《关于加强互联网信息服务算法综合治理的指导意见》等法律法规和规范性文件,也对数据和算法活动提出了要求,对治理提供了措施。



企业也在算法治理方面做出了较多的探索。首先,国内科技企业积极建立AI伦理委员会等科技伦理治理机构,为企业的伦理制度建设、伦理评估与审查、伦理教育与文化建设等提供组织保障,践行负责任的研究与创新理念。


其次,业界在AI风险管理机制和AI伦理标准认证方面进行了前沿探索,旨在帮助AI的设计者、开发者、使用者以及评估者更好地管理AI生命周期中可能出现的风险,同时也为符合伦理标准的人工智能产品、服务或系统进行鉴定认证。


面向未来,灵活有效的算法治理离不开法律、伦理、技术等多种治理手段的协同作用,也需要监管部门、行业和企业、研究机构、社会组织以及社会公众等多元主体的共同参与。



法律治理方面


需要采取分场景分行业的分级分类监管思路,划定算法应用的底线,形成敏捷的、精准的长效监管和治理机制,探索政策指南、监管沙盒、安全港、试点、标准认证、事后追责等多元化的监管措施,确保算法技术创新与应用发展既生机勃勃又井然有序。


伦理治理方面


随着算法技术与人类社会的深入融合、未来数字科技逐渐走进“深水区”,以算法伦理治理防范算法风险、推动负责任创新,已经成为各国政府、科技企业的共识。未来,算法伦理治理的制度建设会逐步完善,内部建设主要以机构内的科技伦理委员会为载体,外部建设有第三方伦理认证等探索性尝试。


技术治理方面


在技术治理方面,以技术创新解决技术应用带来的问题是算法治理实践的关键一环,能够打通抽象的治理原则和具体的技术实践之间的鸿沟。围绕可信AI及应用,未来会有更多伦理性的技术工具、技术解决方案。伦理设计的理念和实践正在与技术治理、技术创新紧密融合。越来越多的伦理考量将进入到技术的研发设计过程中。



总而言之,算法治理仍需坚持以人为本、科技向善等理念,实现算法创新应用和安全之间的平衡发展。


编辑:孙浪
监制:李红梅


文章参考:
1.《AI时代的算法治理报告:构建法律、伦理、技术协同的算法治理格局》腾讯研究院
2.《数字时代的算法困境与治理路径》人民论坛网
3.《如何远离算法之“算计”?——新规之下的网民算法素养调研》光明日报
4.《胡坚波 | 多措并举推进我国算法治理》人民智库

往期回顾

 

 

推动平台经济规范健康持续发展

  产业发展:VR/AR迎来真正腾飞机遇



元宇宙与数字孪生的虚虚实实

继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存